歡迎來(lái)訪江蘇91视频导航管路(lù)係統股份(fèn)有限(xiàn)公司 官方網站!
歡迎來(lái)訪江蘇91视频导航管路(lù)係統股份(fèn)有限(xiàn)公司 官方網站!
剛(gāng)剛過去的周末,光伏、儲能行業迎來重磅(páng)利好消息(xī):摩根士丹利調高寧德時代目標價,在黃仁勳、奧特曼兩位大佬加持下(xià)“儲能與AI”的故事發酵。
圖片(piàn)來源(yuán)網絡
摩根士丹(dān)利調(diào)高寧德時代目標價
3月10日,摩根(gēn)士丹利發布報告(gào),將中國電池巨頭寧德時(shí)代(CATL)的評級上調至“超配”,並設定目標價為(wéi)210元人民幣。在報告中,摩根士丹利分析師指出(chū),寧德時代作為全球(qiú)領先(xiān)的電池製造商,受益於電動汽車市場(chǎng)的快速增(zēng)長(zhǎng)和(hé)電池需求的攀升。
摩根士丹利發(fā)布報告指出,隨著價(jià)格戰接近尾聲,寧德時代準備通過新一代大規模生產線提高成本效率,並擴大在(zài)淨資產收益率方麵的優勢,看到(dào)寧德時(shí)代在基(jī)本麵上的多個(gè)拐點,上調公司評級至超(chāo)配,並選為行業首選。
另外,據央視(shì)網10日報道,寧德時(shí)代董事長曾毓(yù)群在采訪時談到了近期多家歐美車企削減或推遲電動(dòng)化的話題(tí),“歐美車企沒有回歸(guī)燃油車,也沒有停止(電動汽車),可能是因為不賺錢,所以往後延(yán)遲一陣。”
從儲能業務來(lái)看,寧德(dé)時代是當之無愧的王者。國(guó)海證券預(yù)計,該公(gōng)司2023年動力和儲能電池的出貨量達380GWh以上,同比增長31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比增長14%以(yǐ)上(shàng),環(huán)比增長10%以上。按(àn)四季度中值計算,假設公司的電池業務(wù)利潤貢獻在(zài)90%,則測(cè)算公(gōng)司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。
黃仁勳、奧特曼:AI的盡頭(tóu)是光伏和儲能
消息(xī)麵上,在算力爆炒之後,“儲(chǔ)能+AI”的故事在剛剛過去的這個周(zhōu)末發酵了。據報道,英(yīng)偉(wěi)達CEO黃仁勳在一次公開演講中指出,AI未來發展與狀和儲(chǔ)能緊密(mì)相連。黃仁勳在演(yǎn)講中明確表示:“AI的盡頭是光伏和儲能!我(wǒ)們不能隻想著算力,如果隻考慮計算機,我們需要(yào)燒掉14個(gè)地球的能源。”
早在2月27日,就(jiù)有人在社交視頻上講“儲能與AI”的故事,引用的(de)也是所謂“黃仁勳的演講”。與此同時,OpenAI的創始人山姆·奧特曼也提出了類似(sì)的看法。奧特曼表示,“未(wèi)來AI的技術取決於能源,我們需要(yào)更多的光伏和儲能。”
ChatGPT日耗(hào)電超50萬度
人工智能技術的快速發展(zhǎn),帶來了巨大的算(suàn)力和能源消耗。據《紐約客》雜誌(zhì)報道,ChatGPT日耗電超50萬度,相當於1.7萬(wàn)個美國家(jiā)庭,以響(xiǎng)應(yīng)用戶(hù)的約2億個(gè)請求。
*近,在(zài)博世互聯2024大會上,馬斯克遠程連線接受了博世CEO和董事長的采訪。馬斯克提到人工智能的(de)發展速度前所未見,似乎每過(guò)6個月的時間,算力就會增(zēng)加10倍,遠遠超出了摩爾定律每18個月翻番的速度。他預(yù)計,兩年內年將由“缺矽(guī)”變為(wéi)“缺電”,而這(zhè)可能阻礙AI的發展。
“目前算力增長已經(jīng)麵(miàn)臨瓶頸,很明顯,接下來(lái)變壓器會陷入短缺,緊(jǐn)接著就是電力,等到2025年,我們將沒有(yǒu)足夠的電力來運行所有的芯片(piàn)。”馬斯克稱(chēng)。
事實上,馬斯克對電力短缺的擔憂也不是一天兩天了,此前曾多次公開強調解決日益增長的電力需求的緊迫性。他認為,需要加快項目進度,以跟上不斷增(zēng)長的電力需求。
我國台灣地區4月電價調漲箭在弦(xián)上,“電價工作小組”3月12日起將連(lián)開4場討論(lùn)會。其中民生用電(diàn)擬分三級距調漲,*小漲幅700度(或500度(dù))以下約漲5%,701~1000度約漲7%,1001度以上漲約10%;產業(yè)用電依產業別分三級距調(diào)漲,但連二年用電成長、用電50億度以上“超級大戶”以公司別來(lái)看,調幅*高上看近3成,台積電首當其衝;但(dàn)用電衰退麵板、石化、鋼鐵,漲(zhǎng)幅較小。4月電價方案平均漲幅在10~15%。
波士頓谘詢公司就曾分析稱,預計2030年左右,美國數據中心的電力(lì)消耗(hào)將較2022年增長三倍,相當於(yú)電力總需求(qiú)的7.5%,會大幅提升社會用電量。
谘(zī)詢公司Grid Strategies也曾(céng)發布過一項研究,認為(wéi)美國未來五年的年度電力需(xū)求增長大約在1.5%左右。而根據EIA的數據,美(měi)國(guó)發電量近15年來才增加了不到3%。過(guò)慣了供需相對穩定日子的美國供電(diàn)體(tǐ)係,和麵臨不少問題的電網,能否應對驟然增長的需求,尚有待觀察。
從儲能業務來看,寧德時(shí)代是當之無愧的王者。國海證券預計,該公司2023年動力和儲能電(diàn)池的出貨量(liàng)達(dá)380GWh以上,同比增長31%以上。單2023年四季(jì)度(dù)看,公司的出貨量達110GWh以上,同比增長14%以上,環比增長10%以(yǐ)上。按(àn)四季度中值計算,假設公司的電池業務利潤貢獻在90%,則測算公司單Wh盈利在1毛(máo)左右(yòu),與公司2023年前三季度的單位盈利基(jī)本保持相當。
AI大模型下的液冷發展趨勢
摘要
液冷是一種用液體來冷卻電子設備的散熱技術,能夠(gòu)顯著提高數據中心散熱效率。液冷技術根據冷卻液與(yǔ)發熱器件的(de)接觸方式不同,可以分為間接(jiē)液冷和直接液冷,其中間(jiān)接液冷主要包括(kuò)冷板式液冷,直接液冷(lěng)包括浸沒式液(yè)冷和噴淋式液冷。冷板式(shì)液(yè)冷和浸沒式液(yè)冷是目(mù)前主流的液冷形式(shì),冷板式液冷應用*為廣泛,在改造成本、可維護性、兼容性方麵具備優(yōu)勢(shì);浸(jìn)沒(méi)式液冷冷卻效果*好,節能(néng)性上優勢明顯,但可維護性和兼容性(xìng)一般,多用於(yú)高功率密(mì)度機櫃。
控製當前數據中(zhōng)心溫控方式仍以風冷為主,液冷方案中冷板式技術更為普及。2022年數據中(zhōng)心液冷技術的滲透率大概(gài)在5%~8%左右,風冷仍然占據90%以上的(de)市場份額。按照服務器出貨量口徑統計,2023H1我國冷(lěng)板式液冷服(fú)務器比例為90%左(zuǒ)右,浸沒式液冷滲透率為10%。
數據中心算力與能耗水漲船高,逐漸超(chāo)出風冷散熱閾值,液冷散熱已是趨勢所向(xiàng)。Chatgpt為代表的生成式人工(gōng)智能模型(xíng)拉(lā)升算力需求,百億參數成為模型湧現門檻,算力成為大模型性(xìng)能提升的(de)關鍵。大(dà)模(mó)型帶來(lái)大算(suàn)力,大算力帶來高功耗,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100係列GPU芯片TDP更是達到700W。這也導致單服務器和(hé)單機櫃功率均顯著上升,已經逐漸(jiàn)超出風冷散熱的覆蓋範圍(wéi),液冷散熱已成為必然趨勢。
PUE限製是現階段(duàn)液冷技術發展的核心驅動力。PUE代表數(shù)據中心能源使用效率,等於數據中心總耗電/IT設備(bèi)耗電,比值越接近於1,說明(míng)能源越接近全部都用於IT設備(bèi)負載(zǎi)上。我國數據中心平均PUE為1.49,仍有半數區(qū)域的數據中心PUE位於1.5以上。近幾年,國家與(yǔ)地方出台了一係列針對新建與(yǔ)老舊數據中心PUE的管控計劃,明確要求東、西部樞紐節點數據中心(xīn)PUE分(fèn)別控(kòng)製在1.25、1.2以(yǐ)下。而傳統風冷(lěng)方案的數據中心PUE一(yī)般(bān)在(zài)1.5左右,高於政策(cè)要(yào)求的範圍;液冷方案能夠有效降低(dī)冷卻係統的能耗水平,從而將(jiāng)數據中心(xīn)整體PUE降低到1.05-1.2左右,滿足相關的政策要求。
數據(jù)中心TCO是液冷技術規模應用的關鍵因素(sù)。數據中心總成本(TCO)包(bāo)括建設成(chéng)本(běn)(Capex)和運營(yíng)成本(běn)(Opex)。根據奕信通科技在2022年數據中心標準峰會發布的報告進行測算,以(yǐ)華東地區數據中(zhōng)心建設情況為(wéi)例,現階段(duàn)冷板式液冷方案(àn)的TCO甚(shèn)至Capex已經低於風冷,浸沒式液冷方案的TCO也將在運行五年左右之後出現低於風冷(lěng)方案的拐點。但是該測算結果依賴(lài)於一(yī)定的前提條件:如機櫃功率達到30KW、不計算服務器(qì)折舊和服務器運(yùn)營支出、水電費與房租等運營成本按華東地區情況計價、采用集中式大型IDC機房且IT設(shè)備在(zài)12個月線性上架(jià)後實現80%負載率(lǜ)、外界氣溫對製(zhì)冷係統的能耗需求較高(gāo)等。因此在西(xī)北部地區、較小型數據中心等場景下液冷技術的經濟性尚沒有完全(quán)體現。但(dàn)在數(shù)據中心發展的大型化、集約化的趨勢下(xià),且液冷方案仍存在每年降本5-10%的空間(jiān),再考慮到液冷方(fāng)案能夠有效延長服務器使用壽命,未來液冷數據(jù)中心TCO的優勢將更加明(míng)顯(xiǎn)。
控製數據中心液冷未來市場規模估算(suàn):到2025年,中國數據中心液冷市場規模將達到359億元左(zuǒ)右,CAGR達到(dào)72.4%;AI數據中心(xīn)液冷市(shì)場規模將(jiāng)達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場(chǎng)規模(mó)將(jiāng)達到79億元,CAGR達到76.2%。
1液冷(lěng)技術詳解
液冷是(shì)一種(zhǒng)用(yòng)液體來冷卻電子設備(bèi)的散(sàn)熱技術。液(yè)冷的工作原理(lǐ)是以液體作(zuò)為(wéi)冷媒,利用液體的高熱容和高熱傳導性能,通過液體流(liú)動將(jiāng)IT設備的內部元器件產生的熱量傳遞(dì)到設備外(wài),使IT設備的發熱器件得到冷卻,以(yǐ)保(bǎo)證IT設備在安全溫度範圍內運行(本文主要討論數據中心應(yīng)用場景下的液冷技術)。根據冷(lěng)卻液與發熱器件的接觸方式不同,可以分為間接(jiē)液冷和直接液冷。間接液(yè)冷是指服務器熱源與冷(lěng)卻液之間沒有直接接觸的換熱過程,以冷板式液冷技術為主。直接液冷是指將發熱(rè)部(bù)件(jiàn)與冷卻液直接接觸的(de)冷(lěng)卻方式,包括浸沒式和噴淋式液冷技術。其中又可以根據冷卻液是否會發生液態到氣態的轉變,將浸沒式液(yè)冷分為單相浸沒式液冷和(hé)雙相浸沒式液冷。當前,冷板式液冷和(hé)浸沒式液冷(lěng)為液冷的主要形式。
液冷係統通(tōng)用架構包括室外側和室內側兩部分(fèn):室外側包含冷卻塔、一次側管網、一次側冷卻液;室內側包含 CDU、液冷機櫃、ICT 設備、二次側(cè)管網和二次側冷卻(què)液。室外側為外部冷源,通常為室(shì)外的冷水機組、冷卻塔(tǎ)或幹冷器,熱(rè)量轉移主(zhǔ)要(yào)通過水溫的升(shēng)降實現;室(shì)內側包括供液環路和服務器內(nèi)部流道,主要通過冷卻液溫度的升降實現熱量轉移;兩個部分通過CDU中的板式換熱器發生間壁式換熱(rè)。
1.1 冷板式(shì)液冷
冷板式液冷屬於間接液(yè)冷,冷(lěng)卻液(yè)不(bú)與服務器芯片直接接觸。冷板式(shì)液冷也被稱作芯片級液冷,技術原理是通過在服務器組件(如 CPU、GPU等高發熱部(bù)件)上安裝液冷(lěng)板(bǎn)(通常為銅鋁等導熱金屬構成的(de)封閉腔體),服務器組件通過導熱部件將熱量傳導到液冷板上,然後利用液冷板內部的液體循環將熱量傳遞到遠(yuǎn)離服務器的(de)散(sàn)熱單元;同時一般會增設風(fēng)冷單元為低發熱元件進行散熱。
冷(lěng)板式液(yè)冷係統主要由冷卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質(zhì)、液冷機櫃組成;其中液冷機櫃內包含液冷板、設備內液冷管(guǎn)路、流體(tǐ)連接器、分液器等。
1.2 浸沒式液冷
浸沒式液冷屬於直(zhí)接液冷,將(jiāng)發熱器件浸沒在(zài)冷卻液中進行熱交(jiāo)換,依靠冷(lěng)卻液(yè)流動循(xún)環帶走(zǒu)熱量。
浸沒式液冷(lěng)係統室外側包含冷卻塔、一次(cì)側管(guǎn)網、一次側冷(lěng)卻液;室內側包含 CDU、浸(jìn)沒腔體(tǐ)、IT 設備、二次側管網和二(èr)次側冷卻液。使用過程中 IT設備完全浸沒在二次側冷卻液(yè)中,因此二次側循環(huán)冷卻液需(xū)要采用不導電液(yè)體,如礦物油、矽油、氟化液等。
浸沒式液冷根據冷卻液換熱(rè)過程中是否發(fā)生相變,可以(yǐ)進一步分為單相浸沒式液冷和雙相浸沒式液(yè)冷技術。
1.2.1 單相浸沒式液冷
在單相浸沒式液(yè)冷中,冷(lěng)卻液在熱量傳遞過(guò)程中僅發生溫度(dù)變化,而不存在(zài)相態轉變。單相浸沒式液冷的技術原理(lǐ)為:CDU循環泵驅動二次側低溫冷卻(què)液由浸沒腔體底部進入,流經豎插在(zài)浸沒腔體中(zhōng)的IT設備時帶走發熱器件熱(rè)量;吸收(shōu)熱量升溫後的二(èr)次側冷卻液由浸沒腔(qiāng)體頂部出口流回CDU;通過CDU內部的板式換熱器將吸收的熱量傳遞給(gěi)一次側冷卻液;吸熱升溫後的一次側冷卻液通過外部冷卻裝置(如冷卻塔)將熱量排放到大(dà)氣環境中,完(wán)成整個冷卻過程。
1.2.2 雙相浸沒式液(yè)冷
雙相浸沒式液冷的不同之處在於冷卻液會發生相態轉變。雙相浸(jìn)沒式液冷的傳熱路徑與單相(xiàng)浸沒液冷基本(běn)一致,主要差異(yì)在於二次(cì)側(cè)冷卻液僅在浸沒腔(qiāng)體內部循環區域(yù),浸沒(méi)腔體內頂部為氣態區、底部(bù)為液(yè)態區;IT設備完全浸沒在低沸點的液態冷卻液中,液態冷卻液吸(xī)收設備熱量後發生沸騰,汽化產生的高溫氣態冷卻液因密度較小,會逐漸匯聚到(dào)浸沒腔體頂(dǐng)部,與(yǔ)安裝在頂部的冷凝器發生換熱後冷凝為低溫液態冷卻(què)液,隨後在重力作用下回流(liú)至腔體(tǐ)底部(bù),實現對IT設備的散熱(rè)。
1.3 淋式液冷
噴淋式液冷屬於直接液冷,將冷卻液精準噴灑於電子設備器件進行散熱。冷(lěng)卻液借助特製的(de)噴淋板精準(zhǔn)噴(pēn)灑至發熱器件或與之相連接的固(gù)體導(dǎo)熱材料上,並與之進(jìn)行熱交換,吸熱後的冷卻液換熱後將通過回液管、回液箱等集液裝(zhuāng)置進行收集並通過循(xún)環泵輸送至CDU進行下一次(cì)製冷循環。
噴淋式液冷係統主要由冷(lěng)卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質和噴淋(lín)式液(yè)冷機櫃組成;其中噴淋式液(yè)冷機(jī)櫃通常包含管路係統、布液係統、噴淋模塊、回液係統等。
1.4 不同液冷方案的比較
1.4.1 冷板式液冷目前應用*為廣泛,在改(gǎi)造成本(běn)、可維護性、兼容性(xìng)方麵具備優勢
冷板式液冷的優勢主要在於:
1)兼容性:冷板式液冷的改造成(chéng)本(běn)相對較低,不需要對數據(jù)中心現有的機房及機櫃進行大規模改造,其適用的硬(yìng)盤、光模塊等(děng)服(fú)務(wù)器部件與風冷方案一致(zhì),運維(wéi)模式、機(jī)房承(chéng)重與風冷(lěng)場景也基本一致;
2)散熱效(xiào)果與節能性:冷卻(què)效果和節能性要遠好於風冷,PUE可以達到1.2左右;(據《綠色高能(néng)效數據中心散熱冷(lěng)卻技術研究現狀及發展趨勢》數據(jù)顯示,風冷散(sàn)熱(rè)下數據中(zhōng)心的 PUE 值通常在1.5左右)
3)可靠性:液體與設(shè)備不直接接觸,可靠性(xìng)更高;
4)維護性(xìng):易開展維護性設計,可實現在線維護方案;
5)噪聲:風機轉速(sù)大幅降低,噪聲值可至 70dB 左右。
冷板式液冷的局限性主要在於:
1)液體沒(méi)有與電子器件直(zhí)接接觸,而(ér)是通過金屬管壁進行熱交換(huàn),與直(zhí)接接觸的浸(jìn)沒式液冷相比冷卻與節能效果欠佳;
2)IT設備、冷卻液、管路(lù)、供配電等不統一,服務器多與機櫃(guì)深耦合;
3)管路接頭、密封件較多,漏液維護複雜。
1.4.2 浸沒(méi)式液冷的散熱效果(guǒ)和(hé)節能性優勢明顯,但兼容(róng)性和維護性一般,多用於高功率密度機櫃
浸沒式液冷的優勢主要在於:
1)散熱效果與(yǔ)節能性(xìng):與冷(lěng)板式液冷相比,浸沒式(shì)液冷中采用了直接接觸式的熱交換,傳熱係數高(gāo),冷卻效果更好,節能性更強(雙相浸沒式液(yè)冷方(fāng)案的PUE在1.04-1.07左右(yòu),單相浸沒式為1.09左右)
2)緊湊(còu):支(zhī)持高密機櫃,單櫃散熱(rè)量高達160kW;同時,機櫃間無(wú)需隔開距離,機房不(bú)需要空調和冷凍機組、無需架(jià)空地板、無需安裝冷熱通道封閉設(shè)施;
3)可靠性:設備完(wán)全浸(jìn)沒在液體中,排除(chú)了溫度(dù)、風機振動、灰塵等帶來的可靠性問題;
4)噪聲:100%液體冷卻,無需配置風扇,實(shí)現**“靜音”機房。
浸沒式液冷的局限性主要在於(yú):
1)兼容性較差:IT設備需要定製,光模塊(kuài)、硬盤等部件兼容性仍待驗證(zhèng);此外,雙相浸沒式液冷方案適配的服務(wù)器需改為刀片式,其專用機櫃對於(yú)管(guǎn)路要求高,控製複雜;
2)維護複雜:浸沒式液冷設備維護時需要打開Tank上蓋,並配備可移動機械吊(diào)臂或專業維護(hù)車實現設備(bèi)的豎(shù)直(zhí)插拔,維護複雜度高,耗時長;且開蓋維護過(guò)程有一定的冷卻液(yè)揮發問題,增加運行成本;
3)承(chéng)重(chóng)要(yào)求高:因浸沒式液冷係統Tank內充滿冷卻液,整櫃重量(liàng)大幅(fú)增加,對機(jī)房有特(tè)殊承重要(yào)求,普遍要求浸沒式液冷機房地板承重應大於1500kg/m2;
4)國產冷媒待驗證:單相(xiàng)浸沒式液冷方案所使用的國產冷媒仍待驗證。
浸沒式液(yè)冷比較(jiào)適用於對功(gōng)率密度、節能性要求(qiú)較高的大型數據中心,特別是地理位置較為特殊、空間有限的數據中心。
1.4.3 噴(pēn)淋式液冷在安裝便利性、空(kōng)間利用(yòng)等方麵有優勢,但是現階段落地應(yīng)用(yòng)相對較(jiào)少
噴淋式液(yè)冷不需要對數據中心基礎設施進行大幅改動,安裝便捷,空(kōng)間利(lì)用率高,且噴淋方式能(néng)夠節省冷卻液,其(qí)不足在於服務器整體密封於氣相櫃中,排液、補液,維護(hù)時會破壞服務(wù)器原有密封結構。目前噴淋式液冷技術(shù)的(de)應用場景有限,隻有少量數據中心采用了噴淋式液冷技術(shù)。
2 數據中心液冷行業基本(běn)情況(kuàng)與競爭格局
2.1 基本情況:數據中心液(yè)冷行業如日(rì)方升,液冷技術有望加速導入
數據中心溫控方式仍以風冷為主(zhǔ),液冷(lěng)技術有望加速導入。目前數(shù)據中心的(de)散熱方式仍然以風冷為主(zhǔ),在算力設備以及數據中心機房的高熱密度趨勢和高能(néng)效散熱要求的雙重推動下,預(yù)計未來液冷將(jiāng)成為主流(liú)的數據中心溫控方式。根據(jù)產業調研與曙光數創的信息,2022年數據中心液冷技(jì)術的(de)滲透率大概在5%~8%左右,風(fēng)冷仍然(rán)占據90%以上的市場份(fèn)額;預(yù)計(jì)2025-2028年時液冷技術的滲透率有望達到30%。
液冷方式以(yǐ)冷板式為主,浸沒式技術有望加速推廣。當前主流的液冷技術包括冷板式液冷和浸沒式液冷,由於冷板式液冷對於數據中心的改造難度較(jiào)低,改(gǎi)造所需成本也較為可控(kòng),所以目前(qián)冷板(bǎn)式液(yè)冷的市場應用(yòng)相(xiàng)對更加普(pǔ)及。根據IDC《中國半年度液冷服務器市場(2023上(shàng)半年)跟蹤(zōng)》報告,按照服務器出貨量口(kǒu)徑統計,2023H1我國冷板式液冷服(fú)務器比例達到90%左右(yòu),浸沒式液冷滲透率僅為10%。但隨著國(guó)家對於數(shù)據中心PUE的政策要求的愈發嚴格,機櫃功率(lǜ)密度的持續抬(tái)升以及(jí)浸沒式(shì)液冷(lěng)技(jì)術的逐漸(jiàn)成熟,浸沒式液冷方案有望進入(rù)加速推廣期。
2.2 產業鏈:涉及環節(jiē)眾多,存在較高進入壁壘
液冷產業鏈涉及環節眾多,包括上遊的液(yè)冷設備及產品零部件提供商、中遊(yóu)的(de)液(yè)冷(lěng)服務器及液冷基礎設施提供商與下(xià)遊的數據中心(xīn)使用(yòng)者。上遊主要為產品零部件及液冷設備,包括快速接頭、CDU、電磁閥、浸沒液冷(lěng)TANK、manifold、冷卻液等產(chǎn)品,代表性(xìng)廠商(shāng)有英維(wéi)克、3M、高瀾(lán)股(gǔ)份、雲酷、奕信通、廣東合一、綠色雲圖、巨化股份等。中遊主要(yào)為液冷服務器、芯(xīn)片廠商以及液冷(lěng)集成設施、模塊與機櫃等,代表性廠商(shāng)有(yǒu)華為、中興、浪(làng)潮、曙光、新(xīn)華三、聯想、超聚變、英特爾等(děng)。下遊主要為數據中心的使用者,包括三家電信運營商,百度(dù)、阿裏巴巴、騰訊、京東等互聯網企業,數據港、光環新網等第三方IDC服務商以及政府、科研機構、金融、能源、交通等其他信息化需求客戶。
產業鏈存在(zài)較高的技術、人(rén)才、客戶(hù)認證壁壘(lěi)。
1)技術壁壘:液(yè)冷數據中(zhōng)心基礎設施產品的研發和製造涉(shè)及冷(lěng)卻技術、製冷係統設計及仿真技術、溫濕度解耦控製算(suàn)法等多項(xiàng)技術領域,要求企業在液冷核心技術進行多年研究積累,深入(rù)掌握液冷技術的相關原理和應用。此外,液冷數據中(zhōng)心基礎設施產品(pǐn)工藝流程複雜,需要掌握生產製造流程中的(de)核心工藝,同時需具備成(chéng)熟的控製體係,對產品質量進行把控,保證產品的合格率(lǜ),因此數據中(zhōng)心液冷行業具有較高的技術壁壘。
2)人才壁壘(lěi):液冷數據中心基礎設施領域屬於新興技術密集型(xíng)產(chǎn)業,產品性(xìng)能涉及材(cái)料化學、熱力(lì)學、電子學、計算機科(kē)學等多學科,並且數(shù)據中心的製冷係統存在定製化特征,因此對研發技術人(rén)員的技術研發能力和(hé)行業經驗要(yào)求較(jiào)高。目前行業發展曆程較短(duǎn),技(jì)術與產品(pǐn)仍處於驗證(zhèng)階段,高端技術人才相對稀缺,且(qiě)高(gāo)端人才主要集中規模較大的企業(yè)以及***研究機構中,因此新進企業難以在短期內培養出一批具備技術開發實力並擁有豐富實踐項目經驗(yàn)的專業技術隊伍(wǔ),由此數據中心液(yè)冷行業存在較高的(de)專業人才壁壘。
3)客戶認證壁壘:出於安全性、穩定性等考(kǎo)慮,企業客戶在選擇液冷數據中心基礎設施供應商時通常需(xū)要進行嚴(yán)格的資質驗證。尤其是金融、醫藥等機構出於數據安全、保密等要求,對液冷數據中心(xīn)基礎設施解決方案供(gòng)應商挑選非常嚴格,需要對企業產品質量水平、項目經驗、技術研發能力進行綜合考察,因(yīn)此認證過程(chéng)複(fù)雜且耗時較長。液冷數據中(zhōng)心基礎(chǔ)設施廠商應具備較強的產品研發能力、穩定的產品供應以及售後服(fú)務經(jīng)驗,同時具備豐富的技術儲備,才能滿足不同客戶(hù)的需求。另一方麵,由於更換液冷(lěng)數據中心基(jī)礎設(shè)施供應商會對產品的穩定性形成風險,客戶在與液冷數(shù)據中心基礎設施供應(yīng)商建立生產配套關係後(hòu),傾向於維持與現有技術供應商的合作,不會輕易更換主要供(gòng)應商,因此先進入者一旦建立起自身客(kè)戶資源(yuán)、形成先(xiān)發優勢,新進入企業將很難在短期內爭奪市(shì)場份額、改變行業現有格局,因此(cǐ)數據中心液冷行業具有較(jiào)高的客戶認證門檻。
2.3 競爭格局:行業仍處於技術驗證階段,市場格局尚不明確
目前液冷行業(yè)仍處於(yú)技術驗證階段(duàn),技術路線、產品(pǐn)結構、行業(yè)標準等還無定數,國外廠商難以進入(rù)中國市場,市(shì)場競爭格局尚不明確。目前市場中主要廠商(shāng)在液冷(lěng)技(jì)術(shù)和產品方麵還處於實驗研究或初步應用階段,產品結構與行業標準(zhǔn)尚在演進(jìn),市場內(nèi)還未形成具備(bèi)較強核心競爭力的龍頭廠商,市場競爭格局尚未穩定。此外,由於中國對數據安全的保護,在數據中心基礎設施的供應方麵(miàn)存在一定(dìng)的地域壁壘,因此,目前國外(wài)廠商的產品的應用主要以其(qí)本國市場為主,進入中(zhōng)國市場(chǎng)較為困難。
3 數據中心液冷行業未來(lái)看點(diǎn)
3.1 推理/訓(xùn)練服(fú)務器功耗(hào)有望達到10/2kW,液冷方案(àn)成為首(shǒu)選
生成式人工智能橫空出世,助推AI算力景氣度。受ChatGPT為代表的生成式人(rén)工(gōng)智能大模型等新業態帶(dài)動,全新的AI應用場景有望在未來3-5年爆發,百(bǎi)億參數是大模型具(jù)備(bèi)湧現能力的門檻,千億參數的大模型將具備較好(hǎo)的湧現能力,AI算(suàn)力成(chéng)為大模型能力提升的核心驅動力。現階段ChatGPT的總算(suàn)力消耗(hào)達到了3640PF-day(每秒計(jì)算一千萬億次,需要計算3640天(tiān)),需要7-8個投(tóu)資規模30億元,算力500P的超大數(shù)據中心才能支撐(chēng)其訓練過程,AI算力的重要性不言(yán)而喻。據IDC預測,全球(qiú)AI算力市場規(guī)模將從2022年的195.0億美元增長到2026年的346.6億美元,其中生成式AI算力(lì)市(shì)場規模將從2022年的8.2億美元增長(zhǎng)到2026年的109.9億美元,生成式AI算力占整體AI算力市場規模的比例將從4.2%增長到31.7%。
大(dà)模型帶(dài)來高算力,高算力帶來高功耗。隨著AI計算、HPC計算等高(gāo)性能計算需求不(bú)斷提升,CPU、GPU等計算(suàn)芯片朝高算力、高集成方向演進,同時也導致單(dān)顆計算芯片功耗的大幅提升。對(duì)於CPU、GPU、ASIC等計算(suàn)芯片而言,一方麵可以通過增加計算核心數或(huò)提高單核心的(de)主頻等方(fāng)式來提高算力,此舉會顯著增加芯片的TDP(熱(rè)設計功耗);另一方麵可以依靠先進製程(chéng)技術(shù)來縮減單位算(suàn)力對應的TDP(TDP/算力)。但是由於先進製程技術推進較慢等因素,單位(wèi)算力對應TDP的下降幅度逐年減少,且遠(yuǎn)不及(jí)算力的增長速度,這也導致了(le)AI芯(xīn)片功耗的大幅攀升。當前,Intel的(de)多款CPU芯片的TDP已突破350W,NVIDIA 的H100係列GPU芯片的TDP更(gèng)高(gāo)達700W。
計算芯(xīn)片高功耗造成單服務器功耗顯著提高。單服務器(qì)功耗大部分源於計(jì)算芯(xīn)片,服務器的核心組件包括(kuò)CPU(中央處理器)、GPU(圖形處理(lǐ)器)、內存(cún)芯片、SSD(固(gù)態硬盤)、網卡、PCB主板、RAID卡、HBA卡和電源等(děng)。CPU/GPU等(děng)計算芯片在通用(yòng)服務器功(gōng)耗中占比約為50%左(zuǒ)右(yòu),而在AI服(fú)務器中,計算芯片的功耗占比高達80%以(yǐ)上。我們參考2022-2023年中國電信(xìn)集采AI服務(wù)器配置與阿裏雲通(tōng)用服務器配置進(jìn)行功(gōng)耗計算,服務器的功耗可以粗略估(gū)計為所有組件的(de)功耗總和;選取超聚變FusionServer 2288 V7作為通用服務器的代(dài)表(biǎo)型號,超聚變FusionServer G5500 V6作為AI訓練服(fú)務器的代表型號,超聚變FusionServer G8600 V7作(zuò)為AI推理服務器的代表型號(hào)。
通過我們(men)的測算,通用(yòng)服務器的總(zǒng)功耗為595W,AI訓練服務器的總功耗為7015W,AI推(tuī)理服務器的總功耗為1615W。但是由於芯片(piàn)超頻,額外的NVLINK模組(zǔ)等因素的存在,計算芯(xīn)片的實際(jì)滿載功耗往往會高於官方標定的功耗(hào)。以上因(yīn)素導致服務器的實際功耗可能會高於各組件的總功耗,具體的功耗還要以實際測試為準。根(gēn)據超聚(jù)變服(fú)務(wù)器(qì)功耗計算器的測算,當前配置下的(de)通用(yòng)服務器(qì)的(de)實際滿載功耗為700W左右,AI訓練服(fú)務器的(de)實際滿(mǎn)載功耗為9800W左右(yòu),AI推理服務(wù)器的實際滿載功耗為2000W左右。(該過程僅為根據公開資料的估算,請以實際環境(jìng)和負(fù)載下的(de)測算為準(zhǔn))
隨著服務器功耗提高,單機櫃功率(lǜ)上升趨(qū)勢明顯。根據Uptime Institute相關報告數據顯示,2020年全球數(shù)據中心單機櫃功(gōng)率密度達到8.4kW/機櫃,相比於2017年的5.6 kW/機櫃有(yǒu)明顯提升;其(qí)中71%的數據中心(xīn)平均功率密度低於10 kW/機櫃,17%的(de)數據中心平均功率密度高於20kW/機櫃,預計未來數據中心功率密度將繼續上升,高密度數據中心占比將持續提(tí)高。
單機(jī)櫃功(gōng)率逐漸超出風冷散熱閾值,液冷散(sàn)熱已是趨勢所向。風冷散熱一般適用於20Kw/機櫃左右(yòu)的功率密度以下,20Kw/機櫃以上時(shí)液冷散熱優勢明顯。通用服務器通常為2U,AI訓練服務器通常為6U,AI推理(lǐ)服務器通常為4U,標準機櫃為42U;考慮到電源模塊、網絡模塊(kuài)等因(yīn)素,假(jiǎ)設單機櫃內可以放置18個通用服務器或6個AI訓練服(fú)務器或9個AI推理服務器,根據(jù)之前對於服務器功耗的測算,則單機櫃功(gōng)率可以分別達到12.6kW(通用),58.8kW(AI訓練)和18kW(AI推理);考慮到(dào)機(jī)櫃(guì)中其他模塊的散熱情況,實際單機櫃功(gōng)率會更高。對於通用服務器機櫃,其單機櫃功(gōng)率已經開始逐步靠近風(fēng)冷散熱閾值,隨著通用服務器功耗的持續上升,液冷散熱的優勢有望逐步顯現;對於AI訓練與推理服務器機櫃,其單機櫃功率已經(jīng)逼近或者超出了風冷散熱所能覆蓋的功率密度範圍,液冷散熱已成大勢所趨。
3.2 PUE限製(zhì)是現階段液冷(lěng)技術發展的核心驅動力
數據中(zhōng)心耗電量不(bú)斷提升,綠色低(dī)碳成為必然趨勢。數據中心是(shì)能耗大戶,其包含大量的 IT 設備、供電與製冷設備。隨著數據(jù)中心算力與(yǔ)功耗的不斷(duàn)增長,數(shù)據中心耗電量必將呈快速增長(zhǎng)趨勢,綠色低碳必將並且(qiě)已經成為新型數據中(zhōng)心發展的重要基本原則之一。
我(wǒ)國數據中心平均PUE為1.49,仍有半數區域的數據中心(xīn)PUE位(wèi)於1.5以上。PUE 全稱 “Power Usage Effectiveness(能源使用(yòng)效率(lǜ))”,是數據中心消耗的一切能源與 IT 負載(zǎi)運用的能源之比,比值越接近於(yú)1,說明能源(yuán)越接近全部都用於 IT 負(fù)載上。目前我國一半以上區域的數據中心 PUE 值都在 1.5 以上,即消(xiāo)耗在冷卻等非 IT 負載上的能源,占到了 IT 負載的一半以上(shàng)。截至2021年(nián)全國數據中心平均PUE為1.49,還有華南、華東、西北和西南區域(yù)的數據中心PUE超過(guò)1.50,僅(jǐn)有東北、華北和華東區域的數據中心PUE在1.50以(yǐ)下。
數據中心PUE管控日趨嚴格,針對老舊與新(xīn)建(jiàn)數據中心均出台強力約束措施。國家與地方出台了一(yī)係列政策對數據中心能耗管理進行規範,不斷強調數(shù)據中心綠色高(gāo)質量發展的重要性。2021年7月,工信部印發《新型數據中心發展三年行動計(jì)劃(2021-2023年)》,要求到2021年底,新建大型及以上數據(jù)中心PUE降低到1.35以下;到(dào)2023年底(dǐ),新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區降低到1.25以下。2022年8月,工信部等七部門印發《信息通信行業綠色低碳發展行動計劃(2022-2025年)》,要求到2025年,全國新建大型、超大型數據中心(xīn)電能利用效率(PUE)降到1.3以下,改建核心機房PUE降到1.5以下(xià)。除此之外,地方也出台了一係列數據中心PUE要求相關的政策文件,其中北京針(zhēn)對數據(jù)中心(xīn)的年能源消耗量設立(lì)了多層次PUE要求,年能源消耗量越高的數據中心PUE要求越高,此外還針對PUE超過1.4的數據(jù)中心實行電價加價措施。
冷卻係統(tǒng)占據數據中心除IT設備負載外的能耗中的絕大部分,液冷技術能夠有效降(jiàng)低冷卻係統(tǒng)能耗,進而降低(dī)數據中心PUE,滿(mǎn)足監(jiān)管政策(cè)要求。PUE為1.92的數據中(zhōng)心下冷卻係統能耗(hào)占總能耗的比例為38%左右,而PUE為1.3的數據中心下(xià)冷卻係統能耗占比下降至18%,這意味著(zhe)降低數據中心(xīn)PUE的關鍵就在於降低冷卻係統(tǒng)的能耗表現。在同等的散熱(rè)水平下,傳統風冷方案的數據中心PUE一般為1.5左右,液冷方案(àn)的PUE值(zhí)可降至1.05-1.2左右,能夠(gòu)滿足當前政(zhèng)策對於(yú)數據中心PUE的要求。
3.3 數(shù)據中心TCO是液冷技(jì)術規模應(yīng)用的關(guān)鍵因素
數(shù)據中心總成本(TCO)包括建設成本(Capex)和運營成本(Opex)。Capex一般指建設成本,包括土地獲(huò)取、勘察、規劃設計(jì)、設備購置、建設、安裝以及係統調測等費用;Opex一(yī)般(bān)指運營成本,主要(yào)包含電力、冷卻散熱等(děng)基礎設施成本、維護成本及(jí)管理成本。低(dī)成本是數(shù)據中心建立競爭優勢的關鍵,也是降(jiàng)低投資回收期和持續發(fā)展的關鍵。
我們基於華東地區、2N UPS、30kW每機櫃(guì)等常見數據中心配置進行風冷、冷板式(shì)液冷和浸沒式液冷等不同冷卻方式下的TCO測算(本文關於TCO的討論均不(bú)考慮服務器等IT設(shè)備成本)。市場普遍認為,風冷方案在Capex上(shàng)更(gèng)具經濟(jì)性,液冷方案隻在後續(xù)的Opex中有一定的優勢。但是根據奕信通科技在2022年數據中心(xīn)標準峰會(CDCC)發布(bù)的報(bào)告進行測算,現階段選擇冷板式液冷方案的Capex已經低於(yú)風冷方案(àn),即便是浸沒式液(yè)冷方案,也將(jiāng)在運行5年左右(yòu)之後出現TCO低(dī)於風冷方案(àn)的拐點。(該過程僅為根據公開資料的估算,請以(yǐ)實際環境和負載下的測算為準)
但(dàn)是該測算結果依賴於一定的(de)前提條件:如機櫃功率達到30KW、不計算服(fú)務器折舊和服務器運營(yíng)支出、水電(diàn)費與房租等運營成(chéng)本按華東地區情況計價、采用集中式大型IDC機(jī)房且IT設備在12個月線性上架(jià)後(hòu)實現80%負載率、外界氣溫對製冷係統的能耗需求較高等。因此在西(xī)北部地區、較小型數據中心等場景下液冷技術的經濟性尚沒有完(wán)全體現。但在數據中心發展的大(dà)型化(huà)、集約化的趨(qū)勢下,且液冷方案仍存在每年降本5-10%的(de)空間,再考慮到液冷方案能夠有效延長服務器使用壽(shòu)命,未來液冷數據(jù)中心TCO的(de)優勢將更加明顯。
機電部(bù)分包括(kuò)製冷係(xì)統、配電係統、機櫃係統、布線係統和監控管(guǎn)理係統的購(gòu)置和安裝成本,不考慮IT設備成本。
液冷方案與風冷方案相比:1)其機(jī)電部分的Capex可以(yǐ)節省掉冷(lěng)凍水機組/冷凍水精密空調,減少UPS和開關(guān)設備的容量(liàng)等(děng);2)需要增加密封(fēng)機箱、冷卻液、冷板、熱交換器、防滴漏連接器和機架式分液器等液冷設備方麵的成本;3)液冷方案(àn)下同樣外電體量的數據中(zhōng)心內(nèi)空間利用率更(gèng)高,能承載更多IT設備,每ITkW(IT設備功率)下的分攤成本更低。根據假設條件測算,風冷、冷板(bǎn)式液冷、浸沒(méi)式液(yè)冷方案的機電部分Capex分別為16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左右。冷板式液冷方案下分攤到每ITkW下的機電部分Capex與風冷方案基本持平甚至更低;浸沒式液冷方案所需增加的機(jī)電設備較多,分攤下來每ITkW的Capex相比於風冷仍有7000-10000元/ITkW左右的上升。
土建部分主要包括建築物成本(běn)。風冷和液冷(lěng)方案的土(tǔ)建成本差異主要在於同樣體量的數據中心內,液冷方案下建(jiàn)築所需的建築麵積更小。根據奕信通科技測算,風冷、冷板式液冷、浸沒式液冷的土建(jiàn)部分(fèn)Capex分別為5000元/ITkW,3000元(yuán)/ITkW和(hé)3500元/ITkW左右。
外電和能評部分主要包括獲取外電資源,通過能評驗收所(suǒ)需付出的成本。與(yǔ)風冷相比(bǐ),液冷(lěng)方案的(de)PUE更低更節能(néng),獲取外電資源,通過能(néng)評驗收的難度相對會小很多。根據奕信通科技(jì)測算,風冷、冷板式液冷、浸沒式液冷的外電(diàn)和能評部(bù)分Capex分別為4000元/ITkW,2000元(yuán)/ITkW和2000元/ITkW左右。
Opex中占比*高的是電力成本,液冷技術可以(yǐ)有(yǒu)效降低電力成本。數據中心的Opex主要(yào)包括(kuò)電力成本、固定資產折舊、房租、人工費等等(děng),其中電力成本占比*高,達到56.7%(風冷情況下)。
浸沒式液冷方案的Opex*具優(yōu)勢。根據奕信通(tōng)科技測算,風冷(lěng)方案的Opex為9360-9720元/ITkw/年左右,冷板式(shì)液冷方案(àn)的Opex為8040-8400元/ITkw/年左(zuǒ)右,浸沒式液冷方案的Opex是7800-8160元/ITkw/年左右。
現階段選擇冷板式液冷的(de)初(chū)始TCO已經低於風冷(lěng),浸沒式液冷的TCO將在5-6年之後低於風冷。我們根(gēn)據以上測算結果進行(háng)10年期的TCO測算,那麽風冷的Capex和Opex分別為26000元/ITkW和9540元/ITkW/年,冷板式液冷的Capex和(hé)Opex分別為21000元/ITkW和8220元/ITkW/年,浸沒(méi)式液冷的Capex和Opex分別(bié)為31000元/ITkW和7980元/ITkW/年。根據TCO測算(suàn),現階段冷板式(shì)液冷方案的TCO從開始就已經低於風冷方案,浸沒式(shì)液冷方案也將(jiāng)在5年左右之後出現(xiàn)TCO低於風(fēng)冷方案的(de)拐(guǎi)點。
3.4 液冷(lěng)技(jì)術能夠有效延長服務器(qì)使用(yòng)壽命,實現降(jiàng)本(běn)增效
傳統電(diàn)子設備普遍采用空氣冷卻方式,溫度是電子設備產生故障的主要原因之一。環境的多樣性包括(kuò)溫度、濕度、振動、灰塵等多個方(fāng)麵,在導致電(diàn)子設備失效(xiào)的因(yīn)素中溫度占了55%,過熱是電子設備產生故障的主要誘因。隨著溫度的增(zēng)加,電子、原子、分(fèn)子的運動速度加快,使得電子設備(bèi)的性(xìng)能(néng)發生變(biàn)化,當達到一定階段時,就會引起嚴重的故障。在高於一般(bān)室內環境溫度(約20°C~25°C)範圍內條件下,故障率大致按指數規(guī)律隨溫度的升(shēng)高而增加。同時,濕度、振動、灰(huī)塵等因素(sù)同樣會對電子設備的(de)工作性能和使用壽命產生負麵影響。
液冷能夠有效降低(dī)服務器部件(jiàn)故障率,延(yán)長使用壽命。液體具有比空氣更大的(de)比(bǐ)熱容(róng),散熱能力更強,使得服務器溫度更加穩定,CPU和GPU計算部件可以長時間穩(wěn)定工作在高性能頻率狀態。此外,浸(jìn)沒式液冷將IT設備浸入封閉的液體(tǐ)環境中,與空氣完全隔離,並且不再需要(yào)高速風扇進行散熱(rè),消除了空氣濕度、風扇振動以及灰塵(chén)帶來的可靠性影響(xiǎng),從而優化了(le)服務器的(de)運行環境(jìng),延長了設備的使用壽(shòu)命(mìng)。根據阿裏雲的實驗數據,與風冷服務器相比,液冷服務(wù)器整體部件故障率下降約53%,其中電(diàn)源、網卡、風扇、網線等部件的故障率下降超過80%。隨著單服務器價值量(liàng)以及數據(jù)中心運營成本的與日俱增,服務器的可靠性與使用壽(shòu)命顯得尤為重要,液冷帶來的附加經濟價值有望逐步顯(xiǎn)現。
3.5 解耦交付模式成為未來發展趨勢,助(zhù)力液冷產業規範(fàn)化發展
目前冷板(bǎn)式液冷方案的交付模式(shì)可以分為兩類,包括一體化交付與解耦交付兩種。一體化交付是指液冷機櫃的所有部分,包括機櫃和服務器等,都按照廠商自行設定的標準進行集成設計開發,然後再(zài)作為一個整(zhěng)體進行交付。而解耦交(jiāo)付則要求液冷機櫃與液冷服務器之間遵循用戶預先製定的(de)通用接口設計規(guī)範,機櫃與(yǔ)服務器可(kě)以分別由不同廠商負責生產和交付。
解耦交付模式為大勢所趨,助推冷板式液冷產(chǎn)業規(guī)範化發展。服務器與機(jī)櫃解耦(ǒu)更有利於形(xíng)成統一的技術標準及規範,能夠促進行業競爭與技術推廣,讓更多廠商能夠參與液冷行業,實現多廠家適配,也便於後續(xù)靈(líng)活部署,使得客戶可以根據實際需求選(xuǎn)擇不同的服務(wù)器和機(jī)櫃組合,不會受限(xiàn)於某一(yī)個供應商(shāng)。目前華為、超聚變等液冷廠商已經實現了盲插快接,中國(guó)移動也已經著手研發新型(xíng)機櫃,並計(jì)劃在完成測試後開源,推動更(gèng)多的服務器和機櫃(guì)廠商參與(yǔ)到盲插(chā)解耦液冷技術的研發與驗證中,推動技術成熟與規範化。
4 數據中心液冷未來(lái)市場規(guī)模估算
根據估算,到2025年,中國數據中心液冷市場規模(mó)將達到359億元左右,CAGR達到72.4%;AI數據中心液冷市場規模(mó)將達到(dào)280億元左右,CAGR達到(dào)71.4%;通用數據中心液冷市場規模(mó)將達到79億元,CAGR達到76.2%。核心假設如下:
1)假(jiǎ)設通用服務器(qì)的平均功率為0.7kW。以超聚(jù)變FusionServer 2288 V7(2U)作為通用服務(wù)器的代表型號,在超聚變服務器功耗計算器中測算得出其滿載功(gōng)率約為0.7kW。
2)假設AI服務器的平(píng)均功率為3.8kW,其(qí)中AI訓(xùn)練服務器平均功率為8kW,AI推理服(fú)務器為2kW。根(gēn)據產(chǎn)業調研數據,假設AI服務器中訓練與推理的數量關係約(yuē)為3:7,訓練服務器中H係列和(hé)A係列(liè)所占比例約為4:6,推理服務器均為T4係列。以超聚變FusionServer G5500 V6作為AI訓練服務(wù)器(qì)的(de)代表型號,超聚變(biàn)FusionServer G8600 V7作(zuò)為(wéi)AI推理(lǐ)服務器的代表型號,根據(jù)超聚變服務器功耗計算器,H係列訓練(liàn)服務器滿載功(gōng)率約為10kW,A係列訓練(liàn)服務器滿載功率約為6.8kW,T4係列推理服務器(qì)的功率約為2KW。結合以上數量比例關係,可以估算出AI服務器平均功率約(yuē)為3.8kW。
3)假設通用服務器平均(jun1)功率每年提升10%,AI訓練與推理服(fú)務器平均功率未來三年提升30%/20%/15%。根據近幾(jǐ)年CPU/GPU TDP的變化趨勢,CPU TDP每年提升10%左右,GPU TDP每年提升20%左右,我們假設通用服務器平(píng)均功率未來三年保(bǎo)持10%左右的增(zēng)速,AI訓練與推理服務器平均功率未來三(sān)年的增速(sù)為30%/20%/15%。
4)至2025年,假(jiǎ)設通用(yòng)服務器液冷滲透率由(yóu)5%提升到20%,AI訓練服務器液冷滲透(tòu)率由70%提升到100%,AI推理服務器液冷滲透率由40%提升至70%。根據產業調研與曙光數創的(de)信息,2022年(nián)我國液冷滲透率為5%-8%左右,預計2025-2028年時液冷滲透率能達到30%左右。我們假設(shè)通用服(fú)務(wù)器(qì)2022年液(yè)冷滲透率為5%,至2025年(nián)液(yè)冷滲透率上升至20%;AI訓練服務器2022年液冷滲透率為(wéi)70%,至2025年(nián)液冷滲透率上(shàng)升至100%;AI推理服務器2022年液冷滲透率為40%,至2025年液冷(lěng)滲透率上(shàng)升至70%;整體液(yè)冷滲透率由2022年的8%上升至2025年的25.7%。
5)至2025年,假設浸沒式液冷滲透率由10%提升至30%,冷板式液冷(lěng)滲透率由90%降低至70%。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,按照服務器(qì)出貨量口徑統計,2023H1我國冷板式液冷服務器比例(lì)為(wéi)90%左右,浸沒式液冷滲透率僅(jǐn)為10%。隨著未來浸(jìn)沒式液冷技術逐漸成熟(shú)進入加速推廣期,我們預計浸沒式液冷的滲透率由2022年的10%上升至2025年的30%,冷板式液冷的滲透率由2022年的90%下降至70%。
6)考慮到大部分數(shù)據中心(xīn)液冷(lěng)廠商的產品隻覆蓋數據中心液冷基礎設施中的製冷係統、機櫃係統等核心部分,故估算數據(jù)中心液冷市場規模時隻考慮數(shù)據中心液冷基礎設施中製冷係統、機櫃(guì)係統等核心部分的市場規模,不考慮布線係統、土建、外電、能評等其他配套部分。結合產業調研數據,假設冷(lěng)板式液冷基礎設施的價值量約為10000元/ITkW,浸沒式液(yè)冷基礎(chǔ)設施的價值量約為15000元/ITkW。
7)考(kǎo)慮到未來(lái)數據中(zhōng)心液冷市場競爭逐步加劇以及技術逐漸成熟,液冷方案價格將呈逐年下降的趨勢(shì);冷板(bǎn)式液冷技術目前更為成熟,未來(lái)價格的下(xià)降空間相對較小。我(wǒ)們假設冷板式(shì)液冷價值量逐年下降5%,浸沒式液(yè)冷價值量逐(zhú)年下降10%。
以下是A股液冷服務器概念梳理:
中科(kē)曙光:公(gōng)司的 ParaStor 液冷存(cún)儲產品將(jiāng)液冷方案與存儲技術結合, 有效降低 PUE 值;在應(yīng)用層麵,靈活配置多種場景, 針對高性能小規模應用場景,提供全閃存配置方案,而針對中大規模應用場景(jǐng),則提供更(gèng)高性價比的混閃(shǎn)配置方案,為客戶釋放更多(duō)的(de)業務價值。此外,ParaStor 液冷存儲產品與(yǔ)液冷服務器形成(chéng)“存算一棧式” 液冷方案,在提高運維效率的同時,助力數據中心部署更便捷。(行業(yè)龍(lóng)頭)
浪潮信息(xī):浪潮信息將“All in 液冷”納入公司發展戰略,全棧布局液冷,發布全棧液冷產(chǎn)品,實現(xiàn)通用服務器、高密度服務器、整機(jī)櫃服務器、AI 服務器四大(dà)係列全線產品均支持冷板式液冷,並提供液冷數據中心(xīn)全生命周期整(zhěng)體解決方案(行業龍頭(tóu))
工業富聯:公司研發(fā)基於開放(fàng)平台聯盟架(jià)構的 DC_MHS 數據中(zhōng)心模塊化硬(yìng)件係統,推出全球**台模塊化服務器,同時(shí)產品應用於客戶*新一代 HPC 加速器(qì)中;液冷技術方麵,公司(sī)持續加(jiā)大數據中心節能技術研發,通過沉浸式與機櫃式液冷散熱係統,實(shí)現成本節約及效率提升。(行業龍頭)
紫光股份:2022年公司發布了H3C UniServer R4900LC G5液冷(lěng)服務器(qì)及以其為核心的液冷係統、新(xīn)一代(dài)超融合UIS8.0、全新綠洲平台2.0等產(chǎn)品和(hé)方案。(行業龍頭)
中興通訊:公司擁有全係列服務器及存(cún)儲產品,包括通用服務器、GPU服務器、液冷服務器以及全閃存儲(chǔ)產品、混閃存儲產品等。(行業龍頭)
光迅科技:公司是浸沒液冷(lěng)智(zhì)算產業發(fā)展聯盟會員單位,是相關標準、工(gōng)藝研究和實踐的重要參與者之一,目前已有相(xiàng)關產品發(fā)布。(行業新玩家)
飛龍股份:公司的數(shù)據中心液冷產品在蕪湖飛龍、鄭州(zhōu)飛龍已建有專門生產線。公(gōng)司多個液冷項目正在進行中,部(bù)分項目已經量產。(行業新玩家)
網宿科技:公司全資子公司綠色雲圖自主研發的浸沒式液冷技術,能(néng)夠為企業提供更節能、高效的液冷數據中心建設及改造方案。經工業(yè)和信息化部電子第五研究所(中國賽(sài)寶實驗室)數據中心能效評估,綠色雲圖自主研發的液冷(lěng)數據中心PUE均值低至1.049。(行(háng)業新玩家(jiā))
潤澤科技:公司已經開(kāi)始批量交付液冷機櫃,正在交付的以10kw左右的高密機櫃為主,以及20kw以上的液冷機櫃。公(gōng)司將加快(kuài)推進高(gāo)密機櫃和液冷機櫃應用,快速實現整棟液冷數據中心正式投運,向(xiàng)智算中心和超算中心快速演進,形成數(shù)據中心、智算中心和超算中心融合的綜合算力中心。(行業新玩家)
烽(fēng)火通信:公司全新一代 FitNeo LCS 液冷解決方案,專為高熱密度機櫃綠色低碳運營而(ér)設計。FitNeo LCS 通過芯片級製冷,直接(jiē)利用*大溫差快速換熱(rè),實現(xiàn)超(chāo)低 PUE,CLF 低至(zhì) 0.04,功耗降低 5-20%;同時,具有(yǒu)環保(bǎo)無氟(fú)、低噪低耗、綠色節能等特點,機組管路通過工廠預製模塊化配裝實現快速交付,精減現場動火焊接環節;冷卻液緩蝕抑菌、超低電導,連接部件超高承壓,超低漏率,全鏈路漏(lòu)液檢測可自動上(shàng)報。(行業新玩家)
銳新科技:公司鋁合金散熱器應用在(zài)液冷服務器中。在光模塊的冷卻中,通過對(duì)鋁合金基座進行直接水冷(lěng)散熱(rè)的,而光學元件是(shì)裝在基板上工作,所產生的熱量是由基座吸(xī)收,從(cóng)達到散熱的目的。公司鋁合(hé)金散熱器應用(yòng)在液(yè)冷服務器光模塊的冷卻。(液冷材料)
科華數據:目前公司自主研發的液冷技術已運(yùn)用在公司數據中心及儲能產品、解決方案中。領先的產品和技術是公司的長期核(hé)心競爭力,公司持續跟進客戶的技術產品需求,做好相關技術儲備,保持自身技術(shù)的領先性。(液冷零部件(jiàn))
歐陸通:公司為阿裏巴巴定製的新(xīn)一代(dài)浸沒式液冷集中式供電電源在雲棲大(dà)會展出(chū),應用於(yú)磐久服務器供電係統。該電(diàn)源方案包括晨沒(méi)式液冷的ATS 2.5KW PSU 和(hé)30kw Power Shef,由歐陸通子公司雲電科技自主研發及生產,進入準量產階段。該加工結合了浸沒式液(yè)冷+集中式供電的(de)雙重優勢,帶ATS部件整機效率高達97%。(液冷零部件)
中石科技:公司宜興(xìng)子公司主營產品(pǐn)包括液冷模組等,建立相關技術儲備和產品線,為國內外多家(jiā)服務器企業提供液冷等全方位的管理綜合解決方案。(液冷零部件)
科創新源:公司研發的數據(jù)中心服務器特種散熱模組可滿足客戶在高(gāo)算力場景下(xià),高功耗半導體芯片的散熱效能,該項目已完成樣品試製並已通過驗證。公司控股子公司蘇州瑞泰克(kè)散熱科技有限公司主(zhǔ)要產品包括冷凝(níng)器(qì)、蒸發器以及散熱液冷板等熱管理係統產品。(液冷零(líng)部件(jiàn))
高瀾股(gǔ)份:公(gōng)司服務(wù)器(qì)液冷業務擁有(yǒu)三種解(jiě)決方案:冷板式液冷、浸沒式液冷和集裝箱(xiāng)式液冷,可有效降低大型數據中心的PUE(數據(jù)中心總設備能耗/IT設備能耗(hào))。(液冷(lěng)零部件)
康盛股份:公司新一代數據中心機房建設完成並投入使用,標誌著康盛股份在液冷溫控領(lǐng)域實現新突破,邁上新台(tái)階。康盛股份標準化浸沒式(shì)液冷機房IT設備功率130kW,可提供2P算力(lì)。液冷機房建設主要依據GB50174-2017和液冷數(shù)據中心技術規範(康盛股份參編行(háng)業標準)。康(kāng)盛股份標準化浸沒式液(yè)冷機房配3台30kW 42U高性能液冷機櫃、2台20kW 21U高(gāo)性能液(yè)冷機櫃。目(mù)前運行服務器主要有新華三5315Y服務器和DELL R760服(fú)務器。(液(yè)冷零(líng)部件)
精研科技:公司可(kě)為(wéi)消(xiāo)費電子、通信、激光投影、服務器(qì)等領域客戶提供風冷模(mó)組、液冷模組(zǔ)、液冷板以及模組子件熱管(guǎn)、VC等散熱部品(pǐn)。(液冷零(líng)部件)
華勤技術:公司已於2021年取得液冷裝置及設備的實用新型**,並在散熱方麵取得了數據(jù)產(chǎn)品散熱核心(xīn)技術。目前在部分的人工(gōng)智能(néng)服務器上使(shǐ)用液冷散熱技術。(液冷零部(bù)件)
銳(ruì)捷網絡(luò):司在業界進行了(le)NPO、液冷等創新技術的探(tàn)索和市場實(shí)踐(jiàn)。公(gōng)司(sī)與(yǔ)頭部(bù)互聯網(wǎng)客戶聯合發布了在大型數據中心規(guī)模部署的浸沒式液冷交(jiāo)換機(jī),提升了數據中心網絡的可靠性和能源效率;去年(nián),公司發(fā)布了同時應用NPO矽光和(hé)冷(lěng)板式液冷(lěng)技術的 51.2T NPO矽光交換(huàn)機,推動數據(jù)中心網絡建設更加綠色低碳化。(液冷零部件)
飛榮達:公司針對服務器上的散熱需求還開發了軸流風扇,特種散熱器,單相液冷冷板模組,兩相液冷模組等產品。(液冷零部件)
強瑞技(jì)術:公司CDU(液冷分配單元)單機已通過客戶測試並生產。(液冷零部件)
申菱環境:公司致力於緊跟客戶步伐,通過高能效,可靠(kào)的新一代溫控產品如(rú)DPC相變冷卻係統,新型高效蒸發冷卻係統,液冷溫控係(xì)統等產品和解決方案服務客戶。(液冷零部件)
英維克(kè):公司(sī)在算力行業(yè)應(yīng)用的液冷全鏈條解決(jué)方案已有成熟、完(wán)整布局,未來由(yóu)於AI算力的增長勢必拉動相關(guān)的業務增長。(液(yè)冷零部件(jiàn))
同方股份:公司目前有基於華為昇騰的AI服務器可提供液冷解決(jué)方案。(華(huá)為)
朗威股份:公司是一家(jiā)數據中心機房及綜合布線設備提(tí)供商,主營業務是服務器機櫃、冷熱通道、微模塊、T-block機架(jià)等數據中心機櫃和綜(zōng)合布線產品的研發、生產、銷(xiāo)售及服務。2022年公司液冷機櫃產品銷售(shòu)收入占數(shù)據中心(xīn)機櫃銷售總額的比例(lì)為(wéi)3.79%。(液冷零部件)
神(shén)州數碼(mǎ):公司(sī)目前正在進行液冷整機櫃產(chǎn)品的需求設計和開發(fā)。目前液冷共有兩種主流的技術(shù)方(fāng)案,分別是浸沒(méi)方案和冷板方案,分別適用於不同的數據中心場景,公司當前規(guī)劃的液冷整機櫃產(chǎn)品會(huì)基於冷(lěng)板開(kāi)發。(液冷零部件)
雙良節能:公司CDM液冷(lěng)換熱(rè)模塊涉及全浸沒式液冷服務器換熱(rè)模塊與尾端冷卻塔設備,近年來一直獲有優(yōu)質客戶的訂單。(液(yè)冷零部件)
[聲明(míng)]文(wén)章係本網編輯轉載,轉載目的在於(yú)傳遞更多行(háng)業新(xīn)聞信息,文章僅作交(jiāo)流學習使用,也並(bìng)不代表本網讚同其觀(guān)點和對其真實性負(fù)責。如涉及作品內容、版權和其它問題(tí),請在(zài)30日內與(yǔ)本網聯係,我們將在**時間刪(shān)除內容!
本站文章(zhāng)版權歸原作者所有 內容為作者個人觀(guān)點 本站隻提供參考並不構成任何投資及(jí)應用(yòng)建(jiàn)議。本站擁有對此聲明(míng)的*終解釋權。